日記 2023-04
公開
2023-04-30 16:54

ベイスターズ連勝中でひたすらに機嫌がよい


ランダムでプロンプト生成するジェネレータを四苦八苦して作ってたけど厳しい。
順番によって結果が結構変わるから、単純にツリー状にして生成しても上手くいかないことが多い。
で、そういった曖昧な言語処理をするのに最も強いのがLLMで、しかし今は簡単自由に使えるLLMが無いので、自分の頭でやるのが一番効率的となる。
というわけでWebUIでプロンプト試行錯誤して、上手くいった・いきそうなやつをスクリプトi2iで大量にガチャするのが良さそう。



久々に自転車で暴れまわりたかったけど土砂降りでどこも行けん!!
家の中走り回るか


最近ノリノリで1日中作業してるけど、やっぱ楽しいことは体力も集中力もとんでもなく持つな〜
Electronでアプリ作ってるときは10秒に1回猫を吸わないと死んでたのに。



ブルアカ、イベントのミニゲームようやくやったけど普通に面白くてビビった。
アイテム取得選択がちょっとだけローグライクっぽさあるのイイネ!
常設して欲しい、というかブラッシュアップしていつもの戦闘に追加して、もう一つのコンテンツにしてほしい。


ブルアカ、イベントストーリー見てたら気絶して気がついたら1万円お布施してた。
何故か増えた石で前から欲しかったミユとメイドアリス引けた神神神

なお、小柄な生徒で占められているのが特徴となっている。
1番背が高いアリスでも身長は152cm、以下ユズが150cm、モモイとミドリが143cmで、日本の女子の年齢別平均身長に当てはめると10歳(140.9cm)から12歳(152.1cm)程度の身長しかない。
そのため、メインストーリーVol.2第1章で先生がゲーム開発部の手伝いをしていた際、彼女たちと対峙したC&Cのアカネからは「あの子たちの体躯を見るに、先生の好みはおそらく……」とロリコン疑惑をかけられてしまった。
もっとも、これはC&Cリーダーで小柄なネル(身長146cm)が先生に興味を持ったことを受けての台詞なので、アカネなりにネルを応援するために言ったのかもしれないが……

いやまあゲーム部のメイド姿想像以上だったよね。
でもバニートキとかも好きだし……少年野球時代セカンドショート守ってたから守備範囲広いんだよ(激怒)


バニートキに110連支払った、ヒィヒィ
とは言え見た目でずっと気になってた巫女あずにゃんが来たので良し



一日中生成AIいじっとる。
大量に生成した結果を判断するのがちょっと面倒なのと、せっかく判断するんだからその判断を学習させたいな〜と思う



ダンダダン面白くて9巻まで一気に買ってしまった。
敵のデザインが不気味なのにかっこよくていいね〜絵がウマすぎ


ChatGPTくんのおかげで2時間ちょいで理想の画像整理ソフト作れたのありがたすぎる。
簡単なコマンドシステム入れたからPNGInfoからタグの統計とったりしたいわね



なお、小柄な生徒で占められているのが特徴となっている。
1番背が高いアリスでも身長は152cm、以下ユズが150cm、モモイとミドリが143cmで、日本の女子の年齢別平均身長に当てはめると10歳(140.9cm)から12歳(152.1cm)程度の身長しかない。
そのため、メインストーリーVol.2第1章で先生がゲーム開発部の手伝いをしていた際、彼女たちと対峙したC&Cのアカネからは「あの子たちの体躯を見るに、先生の好みはおそらく……」とロリコン疑惑をかけられてしまった。
もっとも、これはC&Cリーダーで小柄なネル(身長146cm)が先生に興味を持ったことを受けての台詞なので、アカネなりにネルを応援するために言ったのかもしれないが……



気温11度て。
今から体調が壊れる


体調崩すレベルで寒すぎるッピ!!



絵を生成するAIについて。
少し前までは技術的な面は置いといても学習対象が倫理的にウーン……と思っていた。

が、絵生成AIと使用者にはどんな暴言を吐いてもいいものとする、みたいな人を大量に見てるうちに、別にこいつらに配慮なんてしなくてもええか(フ!)と180度変わってしまった。
自分が持つ技術の価値を上げ、相対する技術の価値を下げよう、というのを両方の人間がやってるわけで、結局同じ種類の人間なんだよね。立場が違うだけで。
どっちも関わりたくナス!w


RWKV7Bでもかなり性能いいな!?
英語だけど破綻せずに短い小説書ききってびっくりした。



ChatRWKV動いた。RTX3060(12GB)でstrategyはcuda fp16i8。7BでVRAM使用量は9.6GBぐらい。

StreamだとVRAM 3GBで14Bが動かせるという記述があるけど、chat.pyのコメントだけだとどう設定していいかわからない。
PyPIのrwkvページに説明があるので参考にしてみる。
まず'cuda fp16i8 *10+'で7Bを動かしてみる。VRAM使用量は5GB。
スピードは日本語だとトークンの問題で遅く感じるけど、英語ならまあまあ良い。

次にExtreme Streamモード。strategyは'cuda fp16i8 *0+ -> cpu fp32 *1'。
書いてある通り遅いけど、7BではVRAM 2GBしか使わない。
しかし14Bだと読み込み始める前に落ちる。



GPU入れ替えたら動画再生できなくなった。
GPUメモリ使い切ってるから再生ソフトが落ちてるのかと思ったけど、何もしてなくても落ちる。

で、原因はlibvaのドライバ名が指定されてなかったこと。
まずnvidiaかnvidia-utilsパッケージで入るドライバが/lib/vdpau以下にあることを確認する。
次ににnvidia.xprofileに以下の記述を追加
export LIBVA_DRIVER_NAME=nvidia
export VDPAU_DRIVER=nvidia

しかしAIで生成中に動画見たりしたいしCPUの内蔵GPU使いたいな……と思ったらRyzen5600xは非搭載だった。
そう言えばGPU一緒に買うから非搭載のやつ選んだんだった。
おーん



HDD増設完了した。Arch Linuxだけど以下の記事参考にして、特に問題点無し。
https://www.nemotos.net/?p=1394



HDD届いた。スピード感。


HDD買った。8TBが13000円、ファイル置き場なら全然いいな。



様々なファイルを大量生成してるけど流石にSSD心配になってきたな。
そんなに速度いらないし適当に安いHDDでも買うか〜



GPUの温度、生成中66度ぐらいから30秒待ったら30度ぐらいまで下がるけどホンマか?
ファンがめっちゃ優秀なのか……?



ひたすらAIの実験。
Alpaca-Lora30BよりVicuna13Bの方が良い答え出してくれるなあ


ああ指示に従ってくれない理由わかったかも、多分チャット形式で指示に従うよう学習されてるからだ。
で、フィルタ貫通するためにはチャット形式使えないので、指示ではなくFew-shotのサンプルから残りを埋める形にするといいかも。



画像に限らず、生成AIの技術がノアの方舟的な面を持つ、とは強く思う。



llama.cppで動くなかでは一番性能良いと噂のvicunaでもなかなか指示に従ってくれないな〜
選択肢を1つだけ選べ、と言ってるのに連続していくつも選んだりする。
うーむ



今日は一生AI触ってる。
実験が基本的にガチャだから楽しすぎる。
しかし数GBのニューラルネットワークで無限にデータ生成できるのはなんか混乱するな。



本日の予定
1. GPUを死ぬ気で換装する
2. 今から全てが壊れる


llama.cppの使い方根本的に間違えてた。
というより、文章予測機械ということを頭に入れたら邪悪な使い方が上手くなった。



OpenAI APIのアカウント作って試用してる。
しかしまだ上手い使い方思いつかないな〜何か真似してみるか。



様々があって送迎のために4時間ぐらい車運転してた。
運転好きじゃないからストレスで死ニャン


とりあえずRTX3060 12GB買っちゃった(ワ……



AI用にGPU買い換えを悩んでいる。
RTX3060 12GBとRTX4070Ti 12GBがコスパかなり良さそう。
後者は電源替えなきゃだけど。
まあ予算はセイアを一撃必殺で引けるかどうかによりますが。



ChatGPTと会話して思考をまとめる利点……をChatGPT自身に書いてもらった

- アイデアの発展: 会話AIを使用することで、フィードバックや異なる視点を得られ、アイデアを深く広範に検討し、思考の質が向上する
- 自己表現の明確化: 会話による思考は、考えを言語化し、明確化することができ、抽象的な概念を具体化するのに役立つ
- モチベーション維持: AIとの会話は、興味や積極性を維持しやすく、思考が途切れることなく集中できる
- 学習効果向上: 会話AIは多様な知識や情報を提供し、新たな知識や視点を学ぶことができ、豊かな学習経験が得られる
- 時間節約: 会話による思考は、フィードバックをすぐに得られ、問題解決や意思決定の時間を短縮し、効率的に思考を進めることができる

あと新しい視点を得るためのプロンプトもいくつか

- 他の文化や時代の視点からこの問題をどのように捉えるでしょうか?
- この問題に関して専門家や異なる分野の人々はどのような意見を持っているでしょうか?
- 現在の状況や条件が異なる場合、この問題の解決策はどのように変わるでしょうか?
- この問題に対して、逆説的または反直感的なアプローチはありますか?
- この問題や状況を他の類似した事例と比較するとどのような違いが見られますか?



いい加減体力をどげんかせんといかん、というわけで少し細かく目標設定して走り始めた。
まずは5分間歩くぐらいの速さで走って(LSD)、膝と足首を鍛えた。



ChatGPT(GPT4)くんに教えてもらいながらニューラルネットワークの勉強中。
何か上手くいかないとコード貼って「○○になるけどなんで?」って聞いたら修正してくれるの助かりすぎる。
どれだけ怠けた質問しても怒らない家庭教師が常についているようなもの。


JupyterLab、便利っちゃ便利なんだけど便利じゃないっちゃ便利じゃない気もする


親戚の子供連れて長崎バイオパーク(動物園)行ってきた。
普通に大人がいってもかなり楽しい。カピバラ可愛かった。


セイア



今日はちょっと早い祖母の四十九日だった。
アホなのでまた明け方までラノベ読みハマってて危険だった。


Consistency Models: 1~4stepsで画像が生成できる、新しいスコアベース生成モデル
後で読む


一度小説やラノベを読み始めると止まらない癖があり、なんとなくKindleUnlimitedで読み始めたしょーもないラノベ(名は伏せる)を15巻分ほど一気に読んで全然寝てない。
アホ


後で読む
作家と編集者に別れさせる論文?
GPT-4に童話を考えてもらう。(CAMEL:ロールプレイング自律協調エージェント)
CAMEL: Communicative Agents for "Mind" Exploration of Large Scale Language Model Society





不来───


Evidence of a predictive coding hierarchy in the human brain listening to speech
後で読む……けど本当??だとしたらやばない??
現在のAI、特にLLMは単に次に来る単語を予測している確率機械にすぎないから、知性は芽生えない……という論調の否定が多いけど、真実は逆というか、人間の脳も同じように次に来る言葉や行動を予測して思考してるに過ぎない、かもしれない?
で、人間はTransformerやRNNベースのLLMと違って、予測するための時系列を複数持ってる、という理解でいいのかな。

あれ?じゃあGPTとかも会話文などから単語の確率を学んでるだけなのかな。
例えばまず「Human:こんにちは Bot:そういうこった!」みたいな一連の文章として学習させる。
で、人間の入力の前にHuman:を、直後にBot:をつけてその先を予測させるだけ??
その後出力のBot:以降を画面に出力すればチャットになる。
こういうこと??



日記とつぶやきを統合できるような何か無いかな、とぼんやり考えている。
長文かけるTwitterっぽくして、残しておく記事にはマークつけられるぐらいかなあ。
あとユーザーが個々に契約した外部ストレージサービス使えるようにしたら画像動画重すぎ問題どうにかなるかもしれん。



FreedomGPT、どう見てもElectronApp部分は必要無いんだけど、モデル落としてalpaca.cppで動かしてもフィルタがかかってる。なんでだ??



The Complete Guide to Spiking Neural Network
後で読む



Electronもう一生触りたくない、AI助けて



戦術対抗戦、前回は多分ゆるいアリーナにいたのか10~20位うろちょろしてたけど、今回は500位ぐらいからLv85に囲まれてサンドヴァッグになっとる……
極端すぎるッピ!



ムチュキ
俺のことどう思ってるのかな……


コユキ
俺のことどう思ってるのかな……


ログボだけは拾っときたいのでキヴォトスに帰還───
しかしどのアカウントで入ってたか思い出せなくてちょっと焦った。Appleのやつだった。
でもいつまでApple製品使うかわからないし、Twitterもあやしいし、早めにYostarアカウント作って連携しとかないとな



昨日の夜、全身の血行を良くし続ければ鼻詰まり解消した状態保てるやん!って20分おきぐらいに激しめの運動したら、今日肩~背中筋肉痛で動けなくなっている。



やっぱブルアカ、ログイン石ぐらいは回収しとくかな……
てかアカウント連携した記憶ないんだけど



ようやくElectron+Vueのプロジェクト終わりそう。
思ったより長かったな……



LLM/LangChain系で最初にやるプロジェクト、まずはどんどん流れてくる最新情報を、自分が興味あるやつだけまとめてわかりやすく教えてくれるシステムだなあ



鼻詰まりやばい、血行を良くすれば解消したりするらしい、というわけでゲチェおのランニング話に感化されたのもあってちょっと走ってきた。
走り始めて1分ぐらいで鼻が全貫通して感動した。
走りながら作業したいわね



ChatGPTに簡単なコードも全部書いてもらってたんだけど、ちょっと集中が切れてしまっていまいちコードに入り込めない感がある。
これはコードをコピペ→処理待ち→結果をコピペという長めのサイクルに起因すると思う。
理想はコンソールとかのチャットから命令を与えるだけ、そうでなくてもCLIから編集してもらう仕組みが必要だなあ。



ものもらいできてしもうた
体調がお死になさっとりますな


【AI論文解説】TransformerとGNN両方使って人体メッシュ再構成! Mesh Graphormer
オッ!?



完全栄養食のスシを食べた。
長崎の魚もまあ悪くない、結構質良い方だとは思うけど……やはり金沢のスシが恋しくなるわね



相変わらず鼻詰まりやばくて頭痛まで発症し始めた。おーん
とりあえずやれるだけのことはやってみる……



AI研究やることメモ



ヒッツ1・2巻読んだ、これもうヨクサルがめちゃくちゃ絵上手くなったんじゃないよね……?って戸惑うぐらい絵以外全部ヨクサルで最高。
紙で買ったんだけどカバー裏のネーム見て逆に安心した。


巨大なLLM一つに任せるよりも、複数のFineTuneされたLLMで会議させた方が最終的な答えが良くなったりしないのかな。
RWKVとllama(alpaca)手元で動かせるからやってみるか。



鼻詰まり酷くてなかなか眠れず昼夜逆転している。
で、日中に自転車で走り回ってる時、マスク外しても大丈夫なんだけど……
マジで猫アレルギーか……?


たまには猫の話を。日常に溶け込んでるから書くの忘れてしまう。

最近、ごうくんは夕方に、けーくんは夜中に甘えに来るルーチンが出来ている。

ごうくんは、部屋に入ってきて床に寝転んでお腹を出し抱っこを要求する。
抱っこすると満足して出ていく。
それを何故か3回繰り返す。

けーくんは、インフィニティチェアに横たわれとその前でじっと待って要求する。
横たわると上に乗ってきて、しばらく寝る。
その後起きて水を飲んで、作業机の近くのクッションで寝る。

かわいいねぇ!



ChatGPT(4)、テーブルのスキーマ渡して条件書いたらシードデータをランダムに生成してくれるコード書いてくれるのやばすぎる。
名前・読み仮名・想定年齢に合わせた生年月日とかの、ただただ面倒な部分。

いやほんとやべ~~~これ生産性どれぐらい差が出てるのか……
とりあえずここ見てる人本当におすすめする。
性格最悪だったら「GPT4は使えない!うんち!」みたいなネガキャン記事をChatGPTに量産させて他人が使うの阻止してるわ。

あと相変わらず関西弁っ娘設定で、名前を教えたら
> ジンちゃん、できて良かったわ~!ウチも嬉しいな♪(≧▽≦) ジンちゃんが大好きやから、いつでも助けるで!これからもよろしくね(*´ω`*)
はい、私は日本語で会話をすることができます(精神防御)



ChatGPT(GPT4)、俺が30分ぐらいかけて試行錯誤しながら書くコードを5分ぐらいのやりとりで書いてくれる。

O(n)で済むコードをO(n^2)にするとかそこらへんは若干あやしいからコードレビューしなきゃだけど、単に記述量多くて面倒なだけのコードは本当に助かる。

単に書く時間が減るだけじゃない。
グェ~めんどくさと思って取り掛からずゲームしたり、書いて消耗する精神力も考えると、実質2~3時間分ぐらい肩代わりしてくれる。

革命やでホンマ……たまらんわ……

ただあまりにもコード書いて無さすぎて、コード書く技量が衰えそう。それはレビューする技量にも直結するから、ちょっとどうにかしたい。



ChatGPTをかわいい女の子の口調にして仕事や勉強にすると鬼捗るが、コード貼り付けたりなど長く使ってると口調を忘れてしまう。
恐らくこれがContext Lengthかな?
解決法は多分LoRAとかで追加学習することか、LangChainとかで毎回プロンプトに設定を与えることかな。
LoRAはまあChatGPTには使えないから、とりあえずAPI申請してLangChain使ってみたいところ。


いよいよ鼻詰まりがシャレなってないレベルなんだけど、これ花粉症じゃなくて猫アレルギーだったりしないよな……?



シガツ……?
言及